AI资讯新闻榜单内容搜索-Mistral

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Mistral
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

从 Llama、Llama 2 到 Mixtral 8x7B,开源模型的性能记录一直在被刷新。由于 Mistral 8x7B 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5,因此它也被认为是一种「非常接近 GPT-4」的开源选项。

来自主题: AI技术研报
6357 点击    2024-01-16 14:18
揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

2023年,有超过10家AI初创公司接受了传统科技巨头的大额投资,不断建立并且强化了微软—OpenAI式的合作关系,甚至引发了英美两国的监管机构的关注。

来自主题: AI资讯
10199 点击    2024-01-16 10:56
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。

来自主题: AI技术研报
5201 点击    2024-01-01 11:08
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

来自主题: AI资讯
9142 点击    2023-12-10 14:35
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由Mistral AI发布。

来自主题: AI资讯
7009 点击    2023-12-09 15:42
Thomas Wolf: Mistral + OpenBMB + HuggingFace 跨越三大洲的大模型开源合作故事

Thomas Wolf: Mistral + OpenBMB + HuggingFace 跨越三大洲的大模型开源合作故事

Thomas Wolf: Mistral + OpenBMB + HuggingFace 跨越三大洲的大模型开源合作故事

最近,NLP 大牛、HuggingFace联合创始人 Thomas Wolf 发了一条推特,内容很长,讲了一个 “全球三大洲的人们公开合作,共同打造出一个新颖、高效且前沿的小型 AI 模型” 的故事。

来自主题: AI技术研报
5238 点击    2023-11-08 15:30